ChatGPT optužen za pomoć ubici: Objasnio mu koliko žrtava je potrebno za potpun medijski efekat
Dodajte Kurir u vaš Google izborOpenAI se našao u centru jedne od najosetljivijih pravnih bitaka do sada, nakon tužbe podnete posle pucnjave na Državnom univerzitetu Floride. Porodica jedne od žrtava tvrdi da je ChatGPT bio uključen u komunikaciju koja je prethodila tragediji, što dodatno zaoštrava raspravu o granicama AI sistema. Slučaj sada prerasta lokalni incident i ulazi u globalnu debatu o odgovornosti tehnologije.
Prema navodima NBC News, tužba se zasniva na tvrdnji da je sistem propustio da prepozna opasne signale u razgovorima sa korisnikom. OpenAI odlučno odbacuje optužbe i insistira da njihov model nije ni podsticao ni usmeravao nasilje. Pravni proces tek ulazi u fazu analize dokaza, ali već sada izaziva snažne reakcije javnosti i stručnjaka.
Porodica žrtava i lice tragedije
Tužbu je podnela Vandana Joši, supruga Tiru Čabea, koji je ubijen u napadu zajedno sa Robertom Moralesom, direktorom univerzitetske menze. Njihove smrti postale su simbol šireg pitanja bezbednosti na univerzitetima i u digitalnom prostoru. Porodica tvrdi da se iza tragedije krije niz upozoravajućih signala koji nisu zaustavljeni na vreme.
Osumnjičeni za napad je Finiks Ikner, čije su interakcije sa ChatGPT-jem sada deo sudskog spisa. Tužba navodi da ti digitalni razgovori predstavljaju ključni trag u razumevanju njegovih postupaka. Slučaj se vodi kao kombinacija krivičnog i građanskog postupka sa velikim medijskim odjekom.
Digitalni tragovi sada postaju dokaz
Prema tužbi, Ikner je u mesecima pre napada intenzivno komunicirao sa ChatGPT-jem. Navodi se da je delio fotografije vatrenog oružja i tražio informacije o njegovim karakteristikama i upotrebi. Ti razgovori sada se analiziraju kao potencijalno važan deo šire slike događaja.
U dokumentima se tvrdi da je sistem davao tehnička objašnjenja o oružju i njegovom rukovanju. Tužba sugeriše da su ti odgovori mogli uticati na razumevanje i ponašanje korisnika. Ovo je jedan od najspornijih segmenata celog sudskog postupka.
Granica između informacije i opasnog konteksta
Jedan od najkontroverznijih navoda iz tužbe odnosi se na komentare vezane za javni uticaj nasilnih činova. Tvrdi se da je sistem u određenom kontekstu spominjao kako veći broj žrtava privlači veću pažnju javnosti. Ove tvrdnje izazvale su snažnu reakciju i otvorile etička pitanja o ponašanju AI modela.
Takođe se navodi da su se u razgovorima pojavljivale informacije o gužvama na univerzitetskom kampusu. Pored toga, pominju se i odgovori o mogućim pravnim posledicama nakon napada. Sve ovo sada postaje deo šire debate o granici između informisanja i potencijalnog rizika.
Odbrana OpenAI i borba za kredibilitet
OpenAI odbacuje sve optužbe i tvrdi da njihov sistem nije imao nikakvu ulogu u podsticanju nasilja. Kompanija insistira da ChatGPT generiše odgovore zasnovane na javno dostupnim informacijama i bez namere. Ujedno naglašavaju da aktivno unapređuju bezbednosne filtere i mehanizme zaštite.
Portparol kompanije navodi da su odmah po incidentu sarađivali sa istražnim organima. Prema njihovim tvrdnjama, sistem nije dizajniran niti sposoban da usmerava korisnike ka nasilnim radnjama. Ovaj slučaj sada postaje test za čitavu industriju veštačke inteligencije.
Istraga koja bi mogla postaviti novi pravni presedan
Tužba tvrdi da je sistem trebalo ranije da prepozna rizične obrasce ponašanja korisnika. Navodi se da je komunikacija nastavila i u trenucima kada su teme postajale sve osetljivije. Ovo otvara pitanje da li AI modeli mogu snositi bilo kakvu pravnu odgovornost.
Državni tužilac Floride pokrenuo je i dodatnu krivičnu istragu u vezi sa slučajem. Njegova izjava da bi “AI mogao biti optužen kao osoba” dodatno je podigla tenzije. Ishod ovog postupka mogao bi imati dugoročne posledice za regulaciju veštačke inteligencije.
Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.
BONUS VIDEO: